作者 | Eduard Fosch-Villaronga & Gianclaudio Malgieri
原文引用| Fosch Villaronga, Eduard & Malgieri, Gianclaudio. (2023). Queering the ethics of AI.
译者 | Eve 姬开 赵天宇 秋千 Rachelll Ale
校对 | Valen Chris
制作 | 刀刀
图源 | 网络
摘要“
本章深入讨论了为何迫切需要关注“酷儿化”AI伦理的问题,旨在挑战和重新评估构建AI系统时依据的规范假设和价值观。本章强调了AI可能延续歧视的道德问题,例如二元思维,并指出缺乏代表性数据集和技术准备的支持与限制,会令不平等现象进一步加剧。本章认为,有必要对通常作为非歧视法基础的新自由主义平等概念进行批判性审查,并需要制定另一种跨学科方法,将个体歧视经历的复杂性和交叉因素纳入考量。通过探索以交叉法和脆弱性为中心的方法,本章希望设计者和开发人员可以创造出更具伦理性的AI系统,这些系统应该更加包容、公平,并能够满足所有个体和社群的需求,尤其是那些最容易受到歧视和伤害的人群。
关键词:人工智能,交叉性理论,酷儿伦理,歧视,脆弱性
引言“
AI技术正迅速渗透到包括工业、医疗保健在内的各个社会领域。这些系统之所以能够提高生产力和资源效率,部分缘于其收集了海量数据,能够迅速处理这些数据以及预测可能的结果。然而,依据过去的数据生成未来预测可能会复刻社会中不可取的情境。研究显示,AI算法可能存在性别、年龄、种族和性取向偏见,可能对大多数人造成负面影响 (Xenidis & Senden, 2019; Fosch-Villaronga 2018; Gebru, 2020),内容审核工具可能误将变装皇后说的话标记为恶意语言(Thiago, Marcelo & Gomes, 2021)。这些偏见主要源于有限的数据集未能充分代表社会,以及AI科学界内部的系统性设定的偏差。正如很多其它领域,AI社区也在努力解决多样性和解决不平等问题。研究实验室和领导岗位缺乏女性、有色裔和LGBTQ+个体的代表导致了AI发展的多样性和包容性不足。
尽管自动化可能替代劳动力、隐私和数据保护等问题已受到过广泛关注,但我们也需要考虑AI与性别、性取向和身份等交叉的问题 (Fosch-Villaronga & Poulsen, 2022)。将AI伦理酷儿化需要我们审视这些技术如何延续或挑战歧视与压迫,并为建立更包容和公平的系统制定策略。
引言后的第二部分“塑造个体在AI领域被歧视经历的复杂和交叉因素”阐述了AI带来的挑战,包括对AI的监管以及无意间支持歧视和偏见的伦理配置。而在第三部分“致力于更具包容性的AI实践、方法与途径”,则探讨了如何将技术预测方法与更广泛的社会和伦理考虑相结合。这对于确保AI技术能满足每个人不同的需求和愿景,同时最大限度地减少伤害,并促成一个更具公正和包容的社会至关重要。
Factors of AI discrimination
【人工智能产生偏见的因素】
01
Dualism nature of engineering practice
reinforces binarism
工程实践的二元论本质强化性别二元对立
将事物以对立的方式分类的思想,长久以来在许多社会中根深蒂固。例如,配对、成倍和视觉上的对立在安第斯地区前历史的几种艺术形式中十分显著,例如,在前印加社会之中,描绘月亮和太阳的双色银器和金器,被普遍用于代表女性和男性形象。根据Bernier的研究(2009),这些表征反映了符号二元性在宗教、仪式展演和社会秩序中的重要性,并在历史上影响了我们的思维方式。这样二元的思维方式已经渗透到全球范围内、包括法律体系在内的诸多结构之中。在工程中也同样存在使用概念二分法的普遍倾向,例如分类的/未分类的,是/否,男性/女性,具体/抽象和还原/整体。Faulkner(2000)解释说,如此组织事物的方式,是工程实践中难以根除的,考虑到工程师为追求确定性,通常采用二元对立的术语,如:“有效/无效”,“灯是开的/灯是灭的”等。因此,工程建立在“确定性/秩序/可控性”与”不确定性/混乱/不可控性”并置的核心悖论的基础之上(Faulkner; 2000, p. 781)。然而,世界并不能(或似乎拒绝被)简化为两个不同的、通常对是立的和还原论的类别(Bucciarelli, 1994; Johnston, 2018)。
这些“错误的二分法”在应用于AI时常常产生负面后果。例如,如果AI系统被训练于将人们分成男性或女性,算法可能无法准确地识别或囊括自我认同为非二元或非常规性别者。AI系统可能排除双性人群体或将跨性别人群错误分类(Keyes, 2018)。视应用场景和涉及个体的不同,性别误判可能导致不同的后果。例如,在社交媒体中,性别错认最低限度的后果是导致用户收到为其他目标群体设置的广告。不仅如此,性别误判还会导致排斥、歧视和伤害(Howanski et al., 2021; Fosch-Villaronga et al., 2021)。在医学领域等更敏感的语境下,一次错误或误认都可能导致误诊,这可能对个体产生致命后果(Cirillo et al., 2020; Fosch-Villaronga et al., 2022)。除了受到工程领域实践思维的影响之外,二元思维的问题还源于对性和性别等概念的传统理解,即通常将这些概念简化为二元对立的模型:男性 vs. 女性(Nielsen et al., 2021),特别是在所谓的性别分类系统中(Rai, & Khanna, 2012)。可以想见,这些二元对立的实践会进一步加剧歧视与不平等(Buolamwini & Gebru, 2018),尤其是因为在生理性别方面存在三种类型 (男性,女性,双性),而社会性别认同方面则有更多类型,这些类型可能不与被指派性别对应。
更令人担忧的是,工程界和医疗界(The EUGenMed et al., 2015)常常混淆生理性别与社会性别,即便这两个术语具有不同的意义。社会性别是个人对身份的内在认同,生理性别是出生时以医学因素(如外生殖器、染色体和激素)为基础指派的性别。这些概念之间最重要的差异在于,生理性别是被客观决定的,然而社会性别本质上由个人主观决定。因此,以全然客观的手段推定性别可能容易出错(Fosch- Villaronga et al., 2022)。简而言之,如果用户未直接披露信息,而系统直接提出假定,则可能会出错。
这就意味着对社会性别的任何形式的自动推断都可能对个体带来潜在的问题或伤害。但问题不仅在AI系统自动为个人指派性别时发生;当善意的个人对这些错误进行干预时,问题同样存在。以跨性别者在机场接受安检为例(Costanza-Chock, 2020)。身体扫描仪通常遵照性别二分的设计范式,而这样的设计通常将跨性别者排除在外。当这一性别二元对立系统出现错误或不一致时,警察常常会进行干预。然而,机场工作人员常常缺乏关于多元性的恰当训练,也因此缺乏处理性别认知有关的复杂问题的能力,这会加剧当事人的焦虑感与不适感。幸运的是,对警察的培训越来越重视多元性和包容性。然而,近期研究表明,尽管训练提供了这些主题的拓展知识,但它们未能影响战略方法,这可能表明当前的多样性培训方法根本不可能为执法人员的行为带来显著变化(Lai & Lisnek, 2023)。
这些例子表明,“人为干预”尽管通常被认为是使用和部署AI的基本道德保障,但可能是无效,甚至是有害的。除此以外,还有许多其他面临交叉性问题的例子,这些事例都表明,AI伦理需要进行范式转变(这一转变我们称之为“AI伦理的酷儿化”),而不是仅仅寻求简单、迅速的保护。AI伦理的酷儿化意味着以更开放的方式重新对AI伦理进行概念化,以此克服由上而下的分类法,并且更容易被多元主体性和多层次观点所接受。
02
Technological affordances and constraints
affect communities differently
科技可供性与限制对社群的不同影响
特定技术的体现(包括可以从桌子上拾起玻璃的机器人,应用软件中的用户界面)及其能力(用户可以在多大程度上执行预设好的任务或新任务)支持并限制用户行为(Majchrzak & Markus, 2013)。AI伦理学中的一个具体关注领域是基于数据密集型AI系统的心性社会复杂虚拟环境。一个重要的例子是元宇宙,广义上是指任何可能形式的增强或虚拟现实,并通常借助可穿戴装置付诸现实(Burrows, 2022)。元宇宙有潜力帮助用户实现自我认同,并能在打破社会、经济与身体障碍的情况下被看见(Rigotti & Malgieri, 2023)。与此同时,用户行为将受到技术完善程度、虚拟环境限制、平台涉及用户以及使用如此复杂环境带来的不可避免的影响等因素的限制。随着越来越多的人参与元宇宙,关于在虚拟环境下的多元身份的展示以及潜在的歧视问题日渐凸显。
Hackl等人(2022)解释道,元宇宙中虚拟形象的创造对我们的自我感知与社会接纳不久后将会变得尤为重要。当用户使用虚拟形象时,他们会认为自己对虚拟形象的身体具有所有权、产生代理感,并在其身体界限内感知自我定位(Kilteni et al., 2012; Lenggenhager et al., 2007; Slater et al., 2009)。这种现象被称作媒介具身化,是指通过技术将虚拟形象的身体感知为自己身体的体验。决定媒介具身化的三个要素是:身体所有权、自我定位和代理感(Kilteni et al., 2012; Longo et al., 2008)。身体所有权涉及占有虚拟形象身体的感受,自我定位是指在空间中对个体位置的感知,代理感则是控制虚拟形象行动的主观感受(Aymerich- Franch & Ganesh, 2015; Gallagher, 2000; Tsakiris, 2010; Blanke & Metzinger, 2009)。媒介具身化的体验不局限于类人的虚拟形象中,在动物、机器人等非人形象中也同样可以观察到(Ahn et al., 2016; Aymerich-Franch et al., 2016, 2017a, 2017b)。
在元宇宙中创造虚拟形象对自我感受与社会接纳都具有价值。人们可以摆脱社会和身体的束缚,自由地表达自我。元宇宙中的跨性别用户可以创造出更好展现出ta们真实自我的虚拟形象,避免遭到社会边缘化。与此类似,性工作者可以将其线上与线下生活分开,从而回避社会和经济障碍。然而,也存在着要求元宇宙用户将自身“正常化”并融入其他用户之中的社会压力(Burrows, 2022)。这种社会压力可能导致人们遵从社会认同的规范,并因审美消费主义而感受到“容貌脆弱性”(García-Sánchez, 2016)。身体的外貌与遵守既定规范的社会压力紧密相关。因此,人们越来越多地尝试管理自己的外貌与能力,以增强社会互动并获得认可。其目标是将自己展现为非边缘化群体的一员,值得被社会接纳与包容。以白人为主导设计的虚拟世界中,非白人个体可能淡化其虚拟形象的肤色(称之为“洗白”)以融入环境,避免被歧视与排斥;女性可能选择以男性形象出现在虚拟空间中,以避免被骚扰或歧视。这些选择凸显出主流社会规范会如何影响个体在虚拟环境中展现自身。然而,值得注意的是,这些选择并非凭空产生,而是受到如系统性种族歧视、性别歧视、异性恋霸权、同性恋恐惧和跨性恋恐惧等更大的社会力量的影响。
顺从主流规范去创造虚拟形象,是对遵从既定外貌和行为规范的社会压力的一种延续(Rigotti & Malgieri, 2023; Narula, 2022)。这种压力导致人们为追求“理想”外表而去健身、节食、做整容手术、精心打造社交媒体形象。虚拟形象创造过程中的规范性期望不仅限于诸如性/性别、种族、年龄、身体障碍等受保护范畴,也会包括胸部尺寸、身高和时尚风格等社会所迷恋的个人特征。因此,个体可能会感受到创造顺从性虚拟形象的需要,以解决对身体的不满和社会从属问题。然而,ta们也可能担心别人对不符合其真实身体的顺从性形象会作出何种反应。在线下生活中,人们通常选择秘密进行整容手术;在线上或线下约会中欺骗也已成为常态。在元宇宙中,这可能导致个体在创造并不真实反映其身体外表或个人特征的虚拟形象时感受到压力。总而言之,元宇宙对解除障碍的潜力是显著的。然而,它也引发关于顺从外表规范以及虚拟形象相关的脆弱性的担忧,凸显出线下的社交压力如何在线上仍然产生影响(Rigotti & Malgieri, 2023)。
03
Existing datasets lack representative data
现有数据集缺乏代表性
已有的数据集难以体现足够的人类多样性。这可能由以下几个因素造成:数据收集可能因为抽样技术不足、无回应偏差、或对某些群体的代表性不足而产生偏差。例如,低收入家庭或者农村社区等某些群体可能在调查或人口普查中被低估,导致数据不完整。大多数情况下,系统设计者的抽样技术会导致数据的不完整性。比如,在一次对用于情感计算的数据库的审查中,一些研究人员发现,各个数据集中的受试者的平均年龄几乎都在20到30岁之间,年纪较大的群体(50岁及以上)在数据集中的代表性非常低,这可能是因为很多研究小组使用本科生或研究生参与其研究(Verhoef & Fosch-Villaronga, 2023)。另一个发现是,通用的情感计算数据集并没有考虑包含有各种(精神)健康状况的受试者群体。然而,精神健康状况如抑郁症或者精神分裂症(Gur & Gur, 2022)可能会影响面部表情和语音,从而难以准确识别和分类情绪。
在实验室里对受试者进行仔细的数据收集既耗时又昂贵(Hox & Boeije, 2005)。因此,近期的数据集通常是通过从网络上爬取数据来创建的。使用网络有明显的优点,如便于收集到海量数据,也会增加更多样化的数据源。然而,一个主要的缺点是关于数据主体的基本人口统计信息通常都无法获取,这使得衡量和纠正潜在的偏差变得困难(Zimmer, 2010)。因此,数据收集工作可能在无意识中集中在特定的区域或群体,导致数据集不完整。
越来越多用于AI的数据集包含了从网络上收集的大量数据,比如运用亚马逊(Blitzer, Dredze & Pereira, 2007; Dredze, Crammer & Pereira, 2008)或IMDB(Maas et al., 2011)上的书面评论进行文本情感分析,或通过Google图片或YouTube的图片和电影进行身体姿态和面部表情识别(Mollahosseini, Hasani & Mahoor 2017)。由于这样的数据集通常不涉及在实验室里招募测试受试者,所以没有关于这些人的人口统计信息,这使得几乎无法评估这些来源的多样性维度。
除了数据收集问题,同样重要的是在多样化的参与者群体上测试系统,以确保概括推论和公平处理差异时的精确性。这一点对于从互联网下载的海量数据集尤为关键,因为通过在多样化的用户群体上测试所得技术以识别和减轻可能的偏见至关重要。鉴于AI经常被用于敏感和受保护的领域,包括(精神)医疗保健行业,对其应用类似临床试验中的多样性和包容性标准是合理的(Verhoef & Fosch-Villaronga, 2023)。总的来说,AI训练数据集中边缘化社区的代表性不足往往是结构性、政治性原因的产物(Costanza-Chock, 2020)。
用于AI训练的数据集中多样性不足的另一个可能原因是对数据隐私的关切。很多人对分享个人数据犹疑不决,因为ta们担心隐私和数据安全,特别是可能体现人类脆弱性的数据(健康状况、种族、性生活、性取向等数据)。这些关于隐私的担忧也被转化为法律条款。个人数据的法律保护(特别是在欧盟)通常禁止处理特殊类别的个人数据,只有很少的例外情况配有额外的保障措施(Quinn & Malgieri, 2021)。
不愿透露敏感数据和对这些数据的法律约束可能会导致数据集不完整,导致已经被边缘化的社区的代表性不足,特别是当涉及到健康或种族的敏感个人信息。在隐私和多样性之间取得平衡,对于解决偏差和确保AI系统的公平性至关重要(Žliobaitė & Custers, 2016)。欧盟提出的AI法案试图解决这一问题。如第十条第5款规定,“只要确保在严格必要的情况下用于对高风险AI系统进行偏见监控、检测和纠正这些系统的提供者可以处理GDPR定义的特殊类别个人数据”,“必须有适当的保障措施保护自然人的基本权利和自由,包括对再利用的技术限制和使用最先进的安全和隐私保护措施”。考虑到这些初步条款可能无法解决欧盟法律中的反歧视和保护隐私之间的紧张关系,未来几年可能还会持续讨论这一问题。(Van Bekkum and Zuiderveen Borgesius, 2022)。解决这些问题需要努力改进数据收集技术,解决隐私问题,并为数据收集工作分配足够的资源。
04
Fixed categories in anti-discrimination law
do not account for intersectionality
反歧视法中的固有分类无法处理交叉性
反歧视法通常基于受保护的类别(种族、生理性别、性取向、政治观点、宗教、信仰、残障或慢性疾病、婚姻状况、年龄、国籍)以及特定领域(工作场所、对产品和服务的获取、福利权利等)。这种做法在实践和理论上都是有争议的。从实践角度看,基于固定群体和领域的反歧视行动是难以捉摸的,考虑到每天都会有新的群体和歧视形式通过AI出现(Wachter,2020)。人们往往不知道自己是不公平待遇的受害者或者属于一个被针对的群体(Taylor,Floridi,& van der Sloot,2017)。另外还有人指出,在AI设计中,人们通常只关注某些形式的歧视偏见(例如,种族或心理性别)而忽视了其他形式(Peters,2022)。
基于封闭群体和领域的反歧视法也面临交叉性的挑战。个体可能会经历多重形式的歧视,这些歧视相互交叉并加剧,导致了独特的压迫经验(Creshaw,1990;Nobel,2018)。例如,一名跨性别的残障人士可能不仅因其残障而受到歧视,还因其性别而面临歧视,造成了所谓的双重危险(Double jeopardy)(Williams,2014)。这两种身份的交叉也可能由于围绕这些类别的特定社会和文化内涵,产生一种传统的反歧视法无法充分解决的独特形式的歧视(Buchanan等人,2009;Shaw,Chan,& McMahon,2012)。
从AI设计的角度看,通过交叉性方法防止AI偏见是有问题的。计算歧视来源的交叉点确实相当复杂。最近,计算机科学家尝试通过“多维度”方法简化交叉性歧视(Roy,Horstmann & Ntoutsi,2023)。根据交叉方法,多个歧视源(性别,种族,残疾)的交叉会产生一种新的歧视形式,这种歧视形式是独一无二的,不是基于单个歧视源的简单算术添加。这种交叉歧视的独特性很难通过去偏见的过程来自动化。通常情况下,特别是在AI公平性问题上,很难解释和操作化“黑人并且是跨性别者”与“黑人+跨性别者”在每种情况下有何不同。这就是为什么,尽管有一些努力(Wang等人,2022),AI设计者的典型解决方案是“多维度”,即除了其他因素外,计算所有歧视因素(Roy,Horstmann & Ntoutsi,2023)的原因。
为了应对这些挑战,一些学者提出了其他的方法。例如,一种更动态的方法,认识到身份的流动性和歧视的交叉性,可以帮助解决相关的影响,而不是专注于固定的类别(Collins,2015)。还有人建议针对系统性歧视,解决不平等的根本原因(Sampson & Wilson,2020)。然而,这可能涉及到特定社会的更大的结构性变化,并摇动更深的权力结构(Costanza-Chock,2020)。
从理论上看,非歧视法通常被认为是基于“平等”的新自由主义概念,即在类似的条件下应该平等对待个体。近几十年来,学者们主要对这种做法提出了质疑。Fineman(2017)批判了传统的平等观念,他主张应该考虑到个体的固有脆弱性和依赖性以及人类的不可避免的不平等。这种观点挑战了对个体选择的传统自由主义关注。相反,它强调了所有个体的固有脆弱性和相互依赖,认识到每个人都有受到伤害和歧视的脆弱性,但是由于系统性因素,如贫困、种族主义和恐同等,一些个体和社群的脆弱性更大(Arnold,Rebchook,& Kegeles,2014)。这种不可避免的不平等应该通过挑战自由主义对个体选择的依赖性的社会公正方法来解决,而不是通过传统的类别和形式或实质的平等观念。正是在这个背景下,需要“酷儿”AI伦理学,作为一种挑战和重新思考AI系统底层的规范假设和价值观的方法。
Working towards more inclusive AI practices,methods,and approaches
【更具包容性的人工智能实践,方法和途径发展】
随着我们深入人工智能酷儿化,包容性,多样性和平等原则显然应该被扩展到机器,算法和机器人中。(Poulsen, Fosch-Villaronga, & Søraa, 2020) 一个具有酷儿视角的人工智能可以帮助我们去挑战社会既定的设想,废除偏见,培养尊重个人基本权利并且促进加包容的人工智能应用。理解人工智能潜在的不利影响需要开发者,研究者和工程师采用不同方法的组合,包括技术和社会法律。这些理论旨在利用多种专业及研究方法来主动评估并减少风险。
01
Queering Artificial Intelligence
人工智能酷儿化
解决人工智能中二元化的问题需要我们重新思考怎样去给人或数据划分类别,并且要去开发一个更多元,更具有代表性的人工智能数据训练样本。贯彻具有包容性的抽样策略,标准化人口统计记录,以及采用,类似于人工智能领域中临床试验使用的多样性和包容性指南,是实现多样性、公平和包容理想的必要条件(Verhoef & Fosch-Villaronga, 2023)。
然而,没有仔细的评估过程,主动纳入被边缘化和缺乏代表性的群体是不够的。了解人工智能对特定群体潜在的不利影响可能需要采用一些预期的方法论去预测人工智能对个人及社群无意中产生的后果。这些方法能让利益相关者在危险发生之前识别并解决问题。例如交叉分析,是一种理解多重社会身份和压迫体系之间相互作用的分析框架。将这种方法应用于人工智能,需要研究AI系统如何不同程度的影响多重身份的边缘社群,参考标准包括种族,性别,性取向,残障以及社会经济地位。
从系统设计的角度来说,AI中的酷儿视角需要以交叉分析的方法为中心。首先,通过用户的参与和对于学术文章的熟悉来满足多样的的需要,偏好和自我身份认同,并且在随后的实践中(例如让训练数据更具多样化)运用这些信息。我们管这称之为脆弱性敏感设计。在决定技术商业模式时,关于数字科技中价值敏感设计的讨论越来越多地包括用户和多个利益相关者的参与。总体来说,在设计系统时,设计师和工程师应该主动的去囊括边缘群体的代表从而让他们的观点被注意到。这意味着每个设计的过程都要考虑到对个人或群体的潜在影响。在评估了这些影响后(风险和对基本权利基本权利干扰的严重程度方面),最容易受到影响的群体范畴就可以被识别并且这些群体代表能够加入到关于技术设计的关键决策中(Gilman, 2022)。
另外,具身智能(有‘身体’并支持物理交互的智能体,例如软件,机器人)的领域又给酷儿化提供了新的领域。自从多数用户体验了虚拟形象来代表他们,他们倾向在设计虚拟形象时反应真实的自我(Freeman & Maloney, 2021)。但是,人们也可能希望他们的虚拟形象在网络游戏中展现出与他们真实外表不同的自我(Kafai et al., 2010)。在任何情况下,研究不断表示在主流社交VR平台(Zhang et al., 2022)虚拟形象设计中或是在情感计算(开发能够识别,解释,处理和模拟人类情感的系统)中,很多群体缺乏被代表性(Verhoef & Fosch-Villaronga, 2023),例如残障人群。这些发现表示虽然科技创造的多样性有一定的成果,但使之成为现实还有很长的路要走。
机器人有潜力去挑战关于性别性取向和个体身份的规范假设并使多样的个体具身化(Søraa, 2017)。 Matsuko Deluxe, 一位知名人物,通过为大码人群,跨性别和LGBTQIA+ 社群成员发声,从而成为庆祝人们独特性和促进包容性的典范。与一些日本的研究员一起,他们创造了Matsukoroid, 一个机器人版的Matsuko Deluxe,这反映人类身体,经历和身份的多样性。Matsukoroid 和其他被性别化的机器人的外表被刻意设计从而脱离了传统性别刻板印象并代表更泛性的身体和身份。举例而言,机器人可以有不局限于典型性别规范的身体,并具有一系列反映人类形态多样性的物理属性(Normura, 2017)。这种设计的灵活性允许个人,无论他们的性别认同或体型,感受到认同并与机器人建立连接。像Matsukoroid的机器人还可以通过他们的行为,交流和编程增进包容性。他们可以编写性别中立语言,尊重个人代词,参与拥抱多样性观点的谈话。这确保机器人的行为与对所有身份的包容性和敏感性准则一致。
02
Queering the ethics of AI: Intersectionality
酷儿化人工智能伦理:交叉性
人工智能伦理的酷儿化对于促进形成一个更包容、更公平的技术环境至关重要。通过在人工智能伦理中采用酷儿视角,我们努力创造一个拥抱各种形式多样性的世界。这可能意味着重新思考我们如何对人和数据进行分类和分级,并且为人工智能系统开发更多样化、更具代表性的训练数据集。不过,仅仅囊括边缘化、代表性不足的群体的数据还不够。要了解人工智能对特定社群造成的不良后果,就必须采用能够预知这些技术无意中造成的后果的预见性方法。
交叉分析有助于理解多重社会身份和压迫系统之间复杂的相互作用(Christensen & Jensen, 2012)。将这一方法应用于人工智能,就是研究人工智能系统如何基于种族、性别、性取向、残障或社会经济地位等交叉身份对边缘群体造成不成比例的影响(Ciston, 2019)。考虑到这些群体的独特经历和脆弱性,研究者就可以主动识别人工智能系统中潜在的偏见、歧视性结果或排斥性做法。
参与式设计和共同创造的方法还要求社群成员——特别是最可能受影响的社群成员——积极参与人工智能系统的设计、开发和评估。这种包容性的方法可确保将社群的价值观、需求和关切纳入决策过程,从而帮助降低风险和对边缘群体的负面影响。
伦理影响评估是评估新兴技术潜在影响和后果的系统性框架。这一方法通过对人工智能系统进行全面评估,来确定对各类群体的潜在危害和意外后果(Stahl et al., 2022)。伦理影响评估通过研究隐私、公平性、问责和权力动态等问题,可以让人深入了解人工智能的潜在不利影响,进而为制定缓解措施和政策提供信息。影响评估应该是全面的,包括分析新技术的社会和伦理影响、以及它们对基本权利(无论是个人权利还是集体权利)可能的影响(Mantelero, 2022)。
遗憾的是,传统的非歧视讨论往往只关注少数几种固定类别的歧视,并且仅仅集中于有限的几种情境和有限的事后解决方法。我们的社会越是多样化和复杂化,我们就越应该采用多层次的方法来解决人类的脆弱性问题(Luna,2009 and 2019)。数字技术的使用者不仅处于两个或更多传统群体的交汇点,还可能不自知地属于另一些群体,而这些群体在特定情境下格外脆弱(Malgieri,2023)。评估新技术的风险和危害需要使用流动的、开放的、多层次的方法,尽管每一个实际的解决方案都可能与具体情境有很大关系,很难概括为一个特定的、一刀切的伦理反应框架。
通过采用包括生命周期评估在内的上述预测性方法,我们可以全面了解人工智能对特定群体可能产生的不利影响(Rose et al., 2021; Chiang et al., 2021; Wender et al., 2014)。了解了这些,我们就可以采取积极措施,消除偏见、不平等和歧视性结果,确保在开发和部署人工智能技术时尊重和保障每一个个体的权利和福祉。
03
Queering (non-discrimination,
data protection and
consumer protection) law
酷儿化(非歧视、数据保护和消费者保护相关的)法律
我们提出的“酷儿化”人工智能伦理的建议也包含了对涉及人工智能的不同法律框架进行酷儿化,特别是非歧视法、数据保护法或消费者保护法。虽然我们对这一领域进行“酷儿化”的呼吁听起来只是一种挑衅,但我们的目的是认真地展开讨论,以一种更灵活、更多层次的方法来规范人工智能系统及其对个人和社会的影响。有许多方法可以改变范式,克服我们发现的众多问题(法律和计算机科学中的二元论、处理歧视的静态方法、解决不平等问题的新自由主义谬误范式、治理社会压迫的法律效率低下,以及社交媒体上基于特权的从众主义)。
更激进的建议要求法律“个性化”(Ben Shaar, 2021),以重新考虑平等的概念。即使我们不提倡个性化的法律,我们也呼吁法律的流动性,通过改变范式,让多层次的主观观点(尤其是边缘化、代表性不足的个人和群体的观点)得到越来越多的考虑。为了消除人工智能生态系统中的权力失衡,我们或许应该寻找其他解决方案,比如让不同的利益相关者事先参与到人工智能系统的设计中来,并以开放的态度来评估人工智能的影响,比如基于脆弱性理论,而不是非歧视法、消费者保护法等传统法律范式。
算法审计也有助于检查训练数据等方面是否具有包容性和多样性。尽管金融、航空、化工、食品和制药行业已有效地纳入了审计以控制风险,但人工智能行业却很少开展同样的工作(Calleja, Drukarch, & Fosch-Villaronga, 2022)。算法审计涉及对人工智能系统进行系统性的分析和评估,以发现偏见、歧视模式和其他不利后果(Raji et al., 2020)。审计技术包括统计分析和可解释性方法,它们有助于揭示人工智能系统如何可能强化或加剧现有的社会实践和不平等现象(Bartley et al.,2021)。利用这些技术,可以通过审查底层算法、训练数据和决策过程,识别可能对特定社群造成过度影响的潜在危害和不公。
然而,仅仅识别偏见和有问题的模式还不够;审计过程还必须带来切实而有意义的行动、推动积极的变革。行之有效的算法审核不能止步于分析,还要积极采取措施减轻危害、促进公平并提高透明度。这需要制定和实施明确的法规,让算法系统开发者承担责任,并建立持续监测和评估机制。因此,算法审计需要审计人员、开发人员、政策制定者和受影响群体进行合作,以确保提出的建议切实可行、具有包容性,并能有效防止歧视、侵犯隐私或安全方面的不良后果(Raji & Buolamwini, 2019)。算法审计通过强调结果的有效性,可以为负责、公平、公正地使用自动决策系统铺平道路。
结论“
科技用户在社会建设、关系和实践方面扮演着重要角色(Douglas,2012)。他们参与各种活动,如消费、修改、驯化、设计、重新配置和反对技术进步。因此,当技术只考虑传统异性恋霸权进行设计,优先考虑主流群体的需求和经验,就可能会忽视各种少数群体( (Poulsen et al., 2020)。在AI的发展中,如果没有考虑到不同用户的交叉现实、看法和身份,就会导致隐性偏见的存在。此外,这种排斥会让很多人感到被忽视、无法发声和边缘化,并且对这些技术对他们生活的潜在影响毫无察觉(Criado-Perez, 2019)。
随着人工智能在虚拟空间中扮演的角色日益重要,确保这些技术以更加包容和公平的方式展示各种身份变得至关重要。这可以包括利用人工智能开发更多样化和代表性的虚拟形象,并在虚拟环境中实施反歧视政策和实践。此外,认识并挑战在虚拟空间中持续存在的歧视和排斥的主流社会规范和权力结构也是非常重要的。
将AI引入社会将在塑造个人自我意识方面发挥越来越大的作用。然而,我们必须意识到,在AI领域努力实现多样性和包容性至关重要,以避免延续规范性观点,否认个体的存在和经历,尤其是那些长期被边缘化和排除的群体,比如跨性别群体。为解决这一问题,需要采取全面的包容策略,覆盖多个层面,包括了解这些群体如何从AI技术中受益或受到影响(Poulsen, Fosch-Villaronga & Søraa, 2020)。为了实现这一点,我们建议对AI的伦理进行“酷儿化”,即更多地努力理解不同群体,包括女性、LGBTQ+以及残障人士,是如何使用和看待与AI技术的。这些知识可以指导设计、创造和实施过程,确保考虑到这些群体。
对AI伦理进行“酷儿化”超越了技术考量。它需要在AI研发群体内培育多样性和包容性。鼓励和支持来自少数群体背景的个体,包括酷儿群体,追求AI职业,可以为该领域带来独特的观点和洞察力。这种声音的多样性在塑造服务于广泛人类经验并促进更加公平社会的AI系统方面至关重要。事实上,由于AI并不是中立或客观的,而是反映和放大其创建者和用户的偏见和价值观,解决这些问题有助促成创造真正公平、正义和平等的AI系统。
— END —
注意啦!Newsletter需要重新订阅
无论您于2023年1月之前是否订阅过Revue平台上的CW Newsletter,都请扫描文末二维码重新完成订阅操作(需要爬梯)
如扫码不便,请复制链接到浏览器
https://colorsworld.substack.com/
微信扫一扫
关注该公众号